- Apple iPhone 16 Pro - rutinvizsga
- Samsung Galaxy A54 - türelemjáték
- Samsung Galaxy S25 - végre van kicsi!
- Okosóra és okoskiegészítő topik
- Itthon is kapható lesz a kerámia Xiaomi Band 10
- Samsung Galaxy S24 FE - később
- Xiaomi 14T - nem baj, hogy nem Pro
- Netfone
- Honor Magic5 Pro - kamerák bűvöletében
- Fotók, videók mobillal
Új hozzászólás Aktív témák
-
Laja333
őstag
válasz
huskydog17 #42747 üzenetére
Kétlem, hogy a Q4 eredményt bármennyire is befolyásolt a RDNA2/Ampere, ugyanis nem igazán voltak beszerezhetők ebben az időben.
És ahogy elnézem, Q1 '21-et sem nagyon fogják. -
Gainka
őstag
válasz
huskydog17 #42758 üzenetére
Köszi, hát, igy elég kilátástalannak tünik igy, legalább is a közeljövöre nézve.
-
Petykemano
veterán
válasz
huskydog17 #42747 üzenetére
Igazából nem tudom, milyen adatokból dolgoznak.
Vajon ebbe beleszámít az is, amit az nvidia vagy valamelyik partnere konténerben szállít bányászatra, vagy esetleg saját maga használja arra a célra?
Az AMD kínálatára mindenképp hatással van a TSMC által biztosított / AMD által lefoglalt kapacitás. Ha így nézzük, az nvidia jól döntött, hogy a Samsunghoz ment, hisz látjuk, hogy még az újraindított régi gyártósorokról lejövő termékekre is nagy a kereslet.Összességében azt gondolom, hogy a piaci részesedés nem a kártyák - hardveres vagy szoftveres - jóságát reflektálja, hanem a kínálati viszonyokat.
A piac egésze növekedett:
"The PC GPU market shipments increased by 20.5% sequentially from last quarter and increased by 29.1% year-to-year."
Ebben benne vannak az IGP-k is"The overall PC market increased by 30.25% quarter-to-quarter and increased 35.76% year-to-year."
"notebook shipments exceeded 230 million units for the first time"
Ez egy elég érdekes mondat:
"Ethereum, the best-suited coin for GPUs, will fork into version 2.0 very soon, making GPUs obsolete. A person would be very foolish to invest in a high-end, power-consuming AIB for crypto-mining today.” -
Egon
nagyúr
válasz
huskydog17 #42747 üzenetére
Béna nV csak az utolsó előtti a dGPU piacon, bezzeg az AMD elcsípte a 2. helyet!
-
válasz
huskydog17 #42747 üzenetére
Nehéz úgy nőni, ha nem tudják a termelést fokozni. Az NV eleve nagyobb számokkal játszik, és hiába van nekik is problémájuk, ezt eredményezi.
-
válasz
huskydog17 #42706 üzenetére
Elkeserítő.
[link] -
Kolbi_30
őstag
válasz
huskydog17 #42708 üzenetére
Mit foglalkoznak vele. Úgyis meg veszik a terméket, Pr meg senkit nem érdekel.
-
Abu85
HÁZIGAZDA
válasz
huskydog17 #42708 üzenetére
Mit számít ez? A valóságon nem változtat, ha elrejtik egy függöny mögé.
-
Kolbi_30
őstag
válasz
huskydog17 #42706 üzenetére
Neki mindeggy ki veszi...Nem ertetek vannak, hanem a profitert..Ezt kene felfogni.
-
Abu85
HÁZIGAZDA
válasz
huskydog17 #42694 üzenetére
Ez nem a leképezőn múlik. Attól függ az egész, hogy építenek-e be olyan játékmenetbeli elemet, ami igényel komolyabb szimulációt. Ha nem, akkor felesleges ezekre erőforrást pazarolni.
-
tisztelturam
aktív tag
válasz
huskydog17 #42631 üzenetére
Magyarul aki most drágának hiszi a 300k feletti 3070eket meg 350k-s 6800-ak ,ne higgye később se lesznek olcsóbbak.
-
Petykemano
veterán
válasz
huskydog17 #42586 üzenetére
De ha valóban ennyire súlyos az alapanyaghiány, akkor annak nagyon súlyos következménnyel kellene mutatkoznia a gyártók eredményein.
Tehát az EVGA hogyhogy nem megy csődbe, amikor lepkefing mennyiséget tud értékesíteni, mert lepkefing mennyiséget kap?
Az nvidiának áll a pénze a legyártott lapkákban, amit nem tud eladni, mert nincs hozzá GDDR6, vagy valamilyen más alkatrész. Csökkenő bevételeket és milliárdos veszteségeket kéne látnunk. Nem? -
FLATRONW
őstag
válasz
huskydog17 #42433 üzenetére
Úgy tűnik, hogy az NV-t nem érinti rosszul a szabvány kód sem, pont ugyanúgy fut, mint a kiterjesztésen keresztül.
-
válasz
huskydog17 #42430 üzenetére
Nem használt, hanem új, de seftelős. Erről beszélt Abu, hogy hozzá lehet jutni, de fizessen másfélszeres árat az, akinek két anyja volt.
Nem tudom, a boltokba mennyi érkezik, de attól sem lennék meglepődve, ha az a néhány, ami jön, meg sem jelenne a kínálatban, hanem egyből az ilyen sefteseknél landolna valamilyen oknál fogva.
-
válasz
huskydog17 #42427 üzenetére
Élő hirdetés az oldalon:
SAPPHIRE AMD RADEON RX 6900 XT GAMING GRAPHICS CARD WITH 16GB GDDR6: 560.000,- Ft
SAPPHIRE NITRO+ AMD RADEON™ RX 6800 XT OC SE GAMING GRAPHICS CARD WITH 16GB GDDR: 440.000,- Ft
SAPPHIRE NITRO+ AMD RADEON™ RX 6800 OC GAMING GRAPHICS CARD WITH 16GB GDDR6 LITE: 375.000,- Ft
Egy 220k-s 6800-ért 375k-t adni mennyire okos dolog. Jó, nem ref kártya, legyen 570 helyett 650 dollár, de az is csak 250k.Egészen elképesztő, mi folyik a világban most.
-
Abu85
HÁZIGAZDA
válasz
huskydog17 #42427 üzenetére
Többeknek van már itt a fórumon. Ha megfizeted az árat, akkor mindkét gyártó VGA-it be lehet szerezni, de olyan drágák, hogy sokan nem fizetik meg. Megjegyzem nagyon helyesen teszik.
-
válasz
huskydog17 #42424 üzenetére
De lehet, csak 100-150k-val drágábban. A hülyének is megéri...
-
válasz
huskydog17 #42424 üzenetére
jah értem , azt hittem a szoftverhez lehet korlátozottan hozzáférni.
-
válasz
huskydog17 #42422 üzenetére
melyik részére gondolsz hogy nem kaptak?
-
Locutus
veterán
válasz
huskydog17 #42340 üzenetére
Attól még mondjuk nem lényegtelen info, nem veszi meg mindenki a legdrágább procit csak ezért.
-
Egon
nagyúr
válasz
huskydog17 #42293 üzenetére
Hát igen. A két gyártó között alapvetően az a különbség, hogy az nV (egyes vörös szemüvegesek szerint) a 3000-res szériával elkövette az évtized paper launch-ét, míg az AMD 10 éve követi el (szinte folyamatosan) ezt...
-
Raymond
titán
válasz
huskydog17 #42293 üzenetére
A 3070-bol a 6800-asok megjelenese elotti ket hetben volt mar nagyon sok aranylag normalis aron is (599-699EUR) de amint megjelent a 6800-as sorozat es lattak az emberek hogy nem kapni el is ment az osszes 3070, mar csak a pofatlanul dragak vannak megint raktaron.
-
válasz
huskydog17 #42293 üzenetére
De az ünnepi szezont tartani kell, januárban meg tavasszal már késő indulni, nem?
Addigra a covid eltörölheti a fizetőképes lakosságot is akár, meg hol lesz a hype? -
PuMbA
titán
válasz
huskydog17 #42040 üzenetére
A legtöbb játékban az Ultra és a High között nem sok a különbség
Az Ultra jelenléte azért szükséges, hogy megvegyék a legerősebb kártyát az emberek vagy Pistike menőzhessen, hogy neki Ultrán fut, aztán a játékban 150km/h-val repesztve meg úgy sem lát különbséget. Dirt Rally 2.0-ban is minimális a látvány különbség az Ultra és a Medium-High között, de az fps-t azt eszi.
-
huskydog17
addikt
válasz
huskydog17 #42039 üzenetére
Kiegészítés:
E szerint az Ultra beállítás FullHD-ban kb. felezi a tempót (High-hoz képest) ray tracing nélkül! Mi lesz itt, ha ray tracing is lesz a játékban? Jesus!
-
mlinus
őstag
válasz
huskydog17 #42036 üzenetére
Ezt az onrushos csapat csinálta, akik az elkaszált evolution gárdából mentek át a codemastershez.
nem igazán van tapasztalatuk pc körben, ez látszik...
-
GodGamer5
addikt
válasz
huskydog17 #41811 üzenetére
Szomorú, hogy ezt így kiadhatták. Ráadásul a prevgen konzolos verziót vették alapul. A Digital Foundry-s elemzés után elég elszomorító az egész.
-
Milka 78
nagyúr
válasz
huskydog17 #41756 üzenetére
Ehhh...very high 8700k, ultra 9700k...gratulálok annak aki ezt írta
-
Abu85
HÁZIGAZDA
válasz
huskydog17 #41758 üzenetére
Az Ubisoft már előre gondolkodik. Lesz egy rakás platform, ami támogatni fog raytracinget. Arra ki kell alakítani egy olyan környezetet, amiben mindent le tudnak fedni a legkisebb munkával. Egyelőre itt a Radeon Rays 4.0 az a rendszer, ami hosszabb távon megoldja ezt, mert támogatni fogja majd a Stadiát, támogatja a két új konzolt, támogatja a PC-s Radeonokat, és generál majd fallback kódot szabványos DXR-re. Tehát egyszer írsz raytracing támogatást, és lefedsz vele mindent, amit alapvetően le lehet fedni. Ha nem erre mennének, akkor kellene szabványos PC-s/Stadia kód, egy külön kód az új Xbox-ra, és egy harmadik az új PS-re. Az eredmény majdnem ugyanaz, csak a befektetett munka háromszoros.
Na most ezeket ki kell kísérletezni, és például tökéletes alany itt egy játék. Arra megnézik, hogy miképp működik a rendszer, esetleg hoznak bele egy-két effektet, amikor úgy látják, hogy jó, így kipróbálják élesben is. Ezért érdemes számukra most a DX12-n maradni. A Radeon Rays 4.0 egyelőre alkalmas arra, hogy a DXR intrinsics módot bevessék. Később lesz Vulkánra is ilyen, sőt, a Vulkan API-ra még az egyedi bejárásra vonatkozó Radeon Rays 4.0 mód is átmenthető, mert a DirectX 12-vel ellentétben a Vulkan támogatja a programozható bejárást, amit a processzormagok minden PC-n el tudnak majd végezni, nem számít, ha a GPU nem támogat programozhatóságot erre vonatkozóan. Ebből a szempontból a Vulkan egy komplettebb rendszer, ami figyelembe veszi, hogy ma már azért bőven vannak 16-64 magos CPU-k PC-n, amik nem kicsit tempósak. Ezekben olyan erő van, hogy ki tud váltani egy komplett fixfunkciós hardvert is a programozható bejárást nem támogatók GPU-kon belülről. Mire erre készítenek majd szoftvereket, addigra már 128 magnál is járhatunk asztali szinten. Nem véletlen, hogy ez bekerült a Vulkan API-ba, figyelembe vették a szabványalkotók, hogy az elkövetkező években komoly "magrobbanás" lesz.
-
válasz
huskydog17 #41756 üzenetére
Ez milyen gépigény?1440p, very high beállításokra erősebb kártyát ír elő, mint ultra, 2160p-re?
mod, ja látom az fps a difi, 2160p ultra 30fps, másik meg 60.törölhető hsz
-
Abu85
HÁZIGAZDA
válasz
huskydog17 #41756 üzenetére
Támogatja a Vulkan API-t is, hiszen az kell a Stadiának, de a DirectX 12 lesz szállítva a PC-s verzióban.
Ezek a döntések az AMD miatt vannak, mert a Radeon Rays 4.0 még nem támogatja a Vulkan API-t, tehát a kísérletezéseket DirectX 12-n kell végezni. Így viszont a DirectX 12 az elsődleges API. Kettő API-t pedig felesleges szállítani, mert csak a karbantartási költségeket növelné.
-
Abu85
HÁZIGAZDA
válasz
huskydog17 #41752 üzenetére
Csak ebből hibás következtetést fognak levonni. A DirectX 12 alapvetően ugyanolyan gyors API, mint a Vulkan, és itt is elérné a teljesítményét, ha szálszinten párhuzamos shader kódokat kapna.
A Stadia csak Vulkan API-t támogat, nyilván az az elsődleges opció.
-
Abu85
HÁZIGAZDA
válasz
huskydog17 #41749 üzenetére
De az fontos, hogy azért nyer a Vulkan, mert ott subgroupokat is használnak. A DirectX 11 és 12 esetében elavult shader kódok futnak, amik nem használják a wave terminológiát. Persze, hogy a wave terminológiát használó kódok sokkal gyorsabbak a Vulkan alatt, hiszen nem mindegy, hogy a feldolgozás szálszinten soros vagy szálszinten párhuzamos. Óriási hátrány ám a DirectX 11/12-nek, hogy szálszinten soros feldolgozásra van kényszerítve (pedig a DirectX 12 támogat wave intrinsics-et). Így nem lehet hozzámérni az API-kat a Vulkan eredményekhez, mert már a shaderek szintjén ki van végezve a teljesítmény.
Az a baj, hogy Stadiára írt GLSL shadereket nem lehet ám egyszerűen visszaportolni másra. Ezért sem most érkezik a PlayStation 4 és az Xbox One port. Előbb vissza kell portolni a shadereket modern HLSL-be/PSSL-be. Így csalóka azért, mert az előny, amit a Vulkan ad nem azért van, mert maga a Vulkan API ennyivel gyorsabb.
-
gejala
őstag
válasz
huskydog17 #41749 üzenetére
Hát ennyit a FineWine technológiáról. Úgy tűnik, már AMD se fejleszt drivert a Vegára.
-
Malibutomi
nagyúr
válasz
huskydog17 #41744 üzenetére
Jol nez ki.
A grafika nem ugy nez ki ami szuksegesse tenne ekkora gepigenyt, a VRAM szukseglet mindenhol pont akkora mint az NV kartyake, es ahogy masok is irtak magasabb felbontashoz erosebb proci?
Jo nagy BS ez. ELegge sokat tejelhetett az NV erre a jatekra.
-
gejala
őstag
válasz
huskydog17 #41744 üzenetére
Szeretem az ilyen gépigényeket, amikor a felbontás növekedésével egyre gyorsabb CPU kell.
Na meg, hogy 3070-t ajánlanak, miközben a játék előbb lesz kapható, mint a kártya.
-
Laja333
őstag
válasz
huskydog17 #41401 üzenetére
Viszont a Death Stranding kinéztete nekem rém bugyuta. HZD legalább néz ki valahogy. Inkább legyen 30 fps de HZD mint 120 fps és DS.
-
Abu85
HÁZIGAZDA
válasz
huskydog17 #41421 üzenetére
Elég sok köze volt hozzá a Sony-nak. Ők adták hozzá a motort, ugyanis ugyanazt a kódot használja, amit a Guerilla csinált a Horizon PC-s portjához. Enélkül nem lett volna PC-s port, hiszen jelentős módosításra lett volna szükség. De nem kellett, a Guerilla munkáját felhasználták.
-
Jacek
veterán
válasz
huskydog17 #41410 üzenetére
Most vagy nem akarod érteni vagy nem tudom, senki nem azt mondja hogy milyen faszán fút
-
keIdor
titán
válasz
huskydog17 #41410 üzenetére
El kell adni az Ampere-t és az RDNA 2-t ősszel. Erről szól ez az egész.
-
Kelleret
csendes tag
válasz
huskydog17 #41401 üzenetére
" A Day 1 patch semmit nem javított a sebességen és az AMD problémákon se"
Szerintem azt a tesztelők nem kapták meg nem véletlen a lassú sebesség..
#41406
"Kojima Production is meg tudta volna tenni, hiszen a motort készen megkapták a Guerillától, csak nem láttak annyi lehetőséget a PC-s eladásokban, hogy érdemes legyen bele pénzt ölni, inkább arra mentek, hogy egyáltalán hozza vissza maga a játék a befektetést."Ehhez képest a pc-s kb nagyobb népszerűségnek örvend mint ps-en...eladásokban sem rossz.
-
-
Jacek
veterán
válasz
huskydog17 #41403 üzenetére
A DS az konzol port simán minden úgyan az mint konzolon, a HZD meg fel lett javítva PC-re van benne original mod és láss csodát..
-
nubreed
veterán
válasz
huskydog17 #41401 üzenetére
Valaki még használ Vegát?
Komolyra fordítva a szót, ez elég szar helyzet így. Ezzel a játékkal már nem fognak csodát művelni, egyszerűen iszonyú szar lett a PC port. -
Devid_81
félisten
válasz
huskydog17 #41378 üzenetére
DX11 es a GTX1080Ti talalkozasa...
Mennyire latszik, hogy DX11-ben meg mindig durva az a kartya -
válasz
huskydog17 #41305 üzenetére
FHD-ban GTX 1060 üti a Vega64-et. Jól megírta motor, biza!
-
Crytek
nagyúr
válasz
huskydog17 #41305 üzenetére
[Halo 3 Benchmark - ComputerBase teszt]
Gondolom ez az csak lemaradt a link
-
Ragnar_
addikt
válasz
huskydog17 #41277 üzenetére
Jah oke ezt elnéztem,
a Vega tényleg nem túl acélos, de az 5700XT elég jól szerepelt..
-
Jacek
veterán
válasz
huskydog17 #41279 üzenetére
Nezz arakat mennyi egy 2070S es mennyi egy 5700XT, tippre most 20-25%-al dragabb.. Teljesitmeny ugyan az, de majd jon a fanboyoktol a szar a driver ultimate erv
-
Malibutomi
nagyúr
válasz
huskydog17 #41279 üzenetére
Epp ez volt a lenyeg szerintem. ugyanolyan gyors dragabban. Sot van ahol 5700xt gyorsabb
-
Jacek
veterán
válasz
huskydog17 #41277 üzenetére
Nekem itt leszerepel a 2070S lenyegeben nem bir az 5700xt-vel hat :D pedig sokkal dragabb :)
-
Crytek
nagyúr
válasz
huskydog17 #40771 üzenetére
UE4-el nem mindenki tud bánni,csövesek kezében hulladék lesz a végtermék.
-
Kolbi_30
őstag
válasz
huskydog17 #40706 üzenetére
Ismét egy játék amivel szinte senki nem fog játszani
-
GodGamer5
addikt
válasz
huskydog17 #40355 üzenetére
Igen játszottam a Rune 2-vel és meg is döbbentett, hogy egy Human Head ilyet ki mer adni. Az előző gépem egy i5 8400, meghuzatott 1070-nel és 16gb rammal, de volt, hogy beesett 30fps alá a játék!!!! Volt, hogy 17-24fps-el ment, amikor sok volt az effekt.... Ez így elfogadhatatlan, főleg egy Unreal engine-től Geforce mellett és nem érdekel melyik motorverziót használták hozzá..Amúgy azt nem értem, hogy ha ennyire tákolt az egész unreal engine és már rég átálltak Vulkánra, akkor miért nem hajítják már ki végre belőle a Dx11-et???
-
Abu85
HÁZIGAZDA
válasz
huskydog17 #40337 üzenetére
Ha elolvastad volna a hsz-t, akkor láthatnád, hogy a 4.21-es verziót azért jelölte meg, mert annak van egy specifikus problémája, ami korábban nem volt, és a 4.22-re meg is oldódott. Egyszerűen a 4.21-es verzió ritka körülmények között működik hatékonyan. Ha nem úgy használod, akkor sok sebesség megy a levesbe.
Nem is kell alapvetően programozó. A motort kell beállítani. Például 4.21-en a Vulkan API-t érdemes használni, vagy ha a DX11 fontos, akkor a 4.22-re kell frissíteni legalább. Egyébként meg alapvetően a 4.21-es verziót érdemes kerülni.
-
Abu85
HÁZIGAZDA
válasz
huskydog17 #40335 üzenetére
Nem ezen múlik. Nem a motor a lényeg, hanem az RHI. Az UE4 a 4.21 óta kétféle konfigurációt kínál, mert már támogatja a Vulkan API-t is. De a Vulkan API-val az eredeti RHI lassú, viszont a motort annyira átírták, hogy ezzel az eredeti RHI-val lassú lett maga a feldolgozás. De gond egy szál se, mert ennek a problémának a kezelésére jött az explicit parallel RHI, amivel lényegében az RHI-k skálázhatók lesznek a többmagos processzorokon. Viszont a DirectX 11-nél ezt a módot külön kérni kell, és a tapasztalat azt mutatja, hogy nem igazán működik vele jól. De ezt a gondot is orvosolták a 4.22-ben, csak a 4.21-es még lassú vele. Így gyakorlatilag a 4.21-es motor egy fura hibrid lett, amivel a DirectX 11 azért lassú, mert az explicit parallel RHI kezelésével gondja van, de a motort meg nem a fallback módra optimalizálták. A legegyszerűbb megoldása egyébként ennek a 4.22-es verzióra való ugrás, de az Obsidian is mondta szeptemberben, hogy egyszerűbb DirectX 12-re váltani, mint verziót cserélni.
Ez a probléma egyébként meglátszik a motor általános teljesítményét. A 4.21-es verzióval dolgozó játékok (Star Wars Jedi: Fallen Order, The Outer Worlds) nagyon lassúak ahhoz képest, ahogy kinéznek. Például egy Gears 5 alapja nagyjából ugyanaz, de mégis nagyságrendekkel jobban néz ki, és jobban is fut. Viszont a Gears 5 jelentősen átírta az RHI-t.
-
Kolbi_30
őstag
válasz
huskydog17 #40134 üzenetére
Mer 60hz már buzis... 240 alatt nincs élet....
-
Crytek
nagyúr
válasz
huskydog17 #40134 üzenetére
Általánosságban. 380 ezerért nem vagyok kiváncsi a 30-40fpsre pl a Ghost Recon Bugtrough... stb
-
Crytek
nagyúr
válasz
huskydog17 #40131 üzenetére
Ez a Grid is elég gyors 4K-ba... Vicces.. No nem baj legalább tudjuk hogy a 2080Tinél 2x erősebb VGA már ér is majd valamit 4K-ba..Várjuk
-
GodGamer5
addikt
válasz
huskydog17 #40128 üzenetére
Elvileg év végétől váltanak Vulkánra Ubiék. Addig marad a régi hulladék engine.
-
Crytek
nagyúr
válasz
huskydog17 #40128 üzenetére
Tippem: Mert jó még ez a régi engine hozzáállás..
Abban biztos lehetsz, hogy 2020 végén már elég sok cég az új enginejével készíti majd a játékait.
Itt meg legalább megvan az új 4K bajnok ami a legkisebb fpsben rejlik -
-FreaK-
veterán
válasz
huskydog17 #40113 üzenetére
Ráadásul a TPU még mindig csak átlag fps-re tesztel, ami egy vicc és az alapján nem is érdemes messzemenő következtetéseket levonni, viszont ha meg mérték volna a 1/0.1% low-t is, akkor gyanítom még csúnyább lenne a kép.
-
FLATRONW
őstag
válasz
huskydog17 #40113 üzenetére
Úgy néz ki, hogy a memória kezeléssel van valami baj, ami a Polarisokat nagyon sújtja. A felbontás növelésével a 4 GB-os után a 8 GB-os Polarisok is kiesnek. 4k mellett pedig a 3GB-os 1060 is kiesik.
-
Ragnar_
addikt
válasz
huskydog17 #40085 üzenetére
Most vagy a szabvány értelmetlen, vagy a fejlesztők nincsenek a helyzet magaslatán, de hogy egy specifikáció az alkalmazásnál 4 év múlva is katasztrófa legyen, az vicc. A Vulkanról több jót hallani, de azt se sűrűn alakalmazzák.
-
Raggie
őstag
válasz
huskydog17 #40088 üzenetére
Persze én ezt értem, és egyet is értek sok helyen. Csak annyit mondtam, hogy ezért nem feltétlenül a DX12 a hibás, hanem a fejlesztők hoztak egy döntést.
Egyébként szerencsére itt a tempóval nincs gond DX11-ben, mert pl GTX1060/RX590 is elviszi Ultrán.
-
do3om
addikt
válasz
huskydog17 #40085 üzenetére
Pedig a fejlesztők hogy kérték a DX12 őt, legalábbis ezen az oldalon.
Az DX 12 egy katasztrófa talán a legrosszabb címre lesz esélyes. Semmit nem hoz, amit észrevennénk, a fejlesztőknek is valahogy a 11 az egyszerűbb. Ahol van egyszree 11, és 12 ott a 11 sokszor jobb, ahol nincs ott valószínűleg ha raktak volna bele szintén ez lenne. -
Raggie
őstag
válasz
huskydog17 #40085 üzenetére
A cikk nem azt írja, hogy a DX12-es verzió még kb befejezetlen? Tehát akár egy-két peccs múltán már jó is lehet. Ez nem valószínű, hogy az AMD döntése volt, hanem inkább a játék készítőié.
Én úgy tudom elképzelni, hogy előbb a DX11-es verziót fejezték be, mert az kompatibilis a legtöbb ember hardverével majd utána elkészítik a DX12-t is csak azzal nem lettek kész a kiadási dátumra.persze az már más kérdés, hogy elkészül-e tényleg és hogy jó lesz-e, csak még megvan a lehetősége talán.
-
FLATRONW
őstag
válasz
huskydog17 #40021 üzenetére
Az a baj, hogy nem értítek, hogy valószínűleg itt is mekkora csodát hajtott végre a Remedy.
A lenyeg a következő:
- jól működik a leképző
- átgondolt a szinkronizáció
- szép az allokációs stratégia
- kevés az idle buborék
- átgondolt a multiengine implementáció. -
válasz
huskydog17 #40019 üzenetére
érthetetlen egyébként, hogy a QB alatt is már ez volt, hogy Dx11 alatt lehetett elérni használható sebességet még egy GTx 1070 kártyával is. AZ akkori konfigom ( 6800K + GTx 1070) is bereccent sokszor 40 FPS re.
Akkoriban volt fent nem hivatalos verzió virágboltban, gyorsabb volt mint a legális akár 20 % kal is.Az eredeti dobozos mellé le kellett töltenem ... WTF ? szerintem ezzel megint az lesz.
-
válasz
huskydog17 #40009 üzenetére
pedig sokan dicsérik a DLSS-t a Controlban:[link]
-
imi123
őstag
válasz
huskydog17 #40009 üzenetére
Hát talán még ma jön hozzá driver ami azért javíthat a helyzeten(vagy ronthat)
-
válasz
huskydog17 #39910 üzenetére
Köszi szépen !
-
válasz
huskydog17 #39910 üzenetére
“ jogosan könyvelhették el, hogy Navi nem szereti a Youngblood-ot”
Na bumm, a tesztek alapján egy rémes spin off lett, ami miatt senki nem fog a karjába dőlni mert szarul fut a youtuber lecpléj videójában kizárólag navin.
-
válasz
huskydog17 #39907 üzenetére
Érdékes, hogy van....
Tessék, remélem most már megvan a napi zöld boldogság adagotok
-
válasz
huskydog17 #39905 üzenetére
csak pár szóban letudnád írni mit ír? sajnos nem megy a
német.
-
Egon
nagyúr
válasz
huskydog17 #39905 üzenetére
Tudhatnád már, hogy az AMD driverei sokkal jobbak, mint az nV-é, nem olvasol prohardvert?!?
-
huskydog17
addikt
válasz
huskydog17 #39904 üzenetére
"Im Launch-Test der Radeon RX 5700 und RX 5700 XT stießen wir in Wolfenstein 2 auf Probleme: Der auf dem Wasser befindliche Nebel wird fehlerhaft dargestellt und das Spiel bemängelt mit maximalen Details schon in in Full HD die verfügbare Speicherkapazität. Das letztgenannte Problem tritt 1:1 auch in Wolfenstein Youngblood auf. Obwohl wir die aktuelle Radeon Software verwenden, die von AMD für das Spiel enpfohlen wird, läuft Wolfenstein Youngblood nicht rund. Die Speicher-Allokation funktioniert offensichtlich nicht so, wie es vorgesehen ist. Bemerkbar ist dies nicht nur anhand der Speicherwarnmeldung des Spiels, sondern auch an der verbesserungsfähigen Performance. Full HD läuft noch ordentlich, darüber hinaus bricht eine Radeon RX 5700 (XT) jedoch stärker ein als Vega und Turing. Auch die Ladezeiten fallen auf Navi höher aus, was für große Mengen in den Hauptspeicher ausgelagerter Daten spricht.
Das zweite Problem wiegt noch etwas schwerer: Während unserer Tests stürzte Wolfenstein Youngblood auf einer Radeon RX 5700 (XT) mehrfach an unterschiedlichen Stellen ab. Nachtests auf zwei anderen, grundverschiedenen Testsystemen bestätigen das Problem. EIne Reduktion der Detailstufe auf 8-GiByte-konforme Einstellungen hilft zwar gegen den Speichermangel, aber nicht gegen die Abstürze. Diverse Nutzer bestätigen das Problem im Internet. Der Navi-Pfad des Treibers scheint nach wie vor unfertig zu sein, denn auch die Performance von Wolfenstein 2, das sich im PCGH-Leistungsindex befindet, ist unverändert. Der Vollständigkeit halber sei explizit erwähnt, dass nur Navi betroffen ist, keine andere GPU im Test stürzte ab. Möglicherweise wird es der August-Treiber in Gestalt der Radeon Software 19.8.1 richten."
"Während Adrenalin 19.7.3 und 19.7.4 mit den meisten AMD-Grafikkarten ordnungsgemäß in Wolfenstein: Youngblood funktionieren, haben im Test ausgerechnet beide neuen Navi-Grafikkarten große Probleme bereitet. Sowohl die Radeon RX 5700 als auch die Radeon RX 5700 XT stürzten in dem Spiel zuverlässig ab und auch die längere Kommunikation mit AMD brachten diesbezüglich keine Lösung. Selbst verschiedene Windows-Installationen haben keine Abhilfe geschaffen, dasselbe gilt für anders gesetzte Grafik-Optionen. Der Adrenalin 19.7.2 lief dagegen absolut stabil. Das ist insofern ärgerlich, da der Adrenalin 19.7.3 und der 19.7.4 deutlich schneller in dem First-Person-Shooter arbeitet, wie eigene Benchmarks zeigen. "
Ez elég gáz, hogy pont a játékhoz készült driver instabil. Ez sem fog segíteni a Navi renoméján. Szerencsére engem nem érint, de aki Navi VGA-val akar játszani az új Wolfival, az most szívhatja a fogát.
-
válasz
huskydog17 #39859 üzenetére
Lol megy Nvidian is?
Továbbra sem világos, hogy miért a DLSS sel van össze mérve, hisz ez nem hoz plusz FPS-t, Csak ha a Shader cache le van véve 0.7re de ott meg kifejezetten látszik a butitas.
A srác aki ezt a módot csinálta azt írja nem használ felbontás felskalast az eljárás.
Egyebkent BF ben látványosan dolgozik a videók alapján. -
Dtomka
veterán
válasz
huskydog17 #39780 üzenetére
BF V alatt azt tapasztaltam, hogy DX12 vel kevesebb az fps, és látványban nem látok különbséget.(7700k + 1070)
-
Abu85
HÁZIGAZDA
válasz
huskydog17 #39690 üzenetére
Exkluzív esetén nem. Ezért az AMD fizetett nekik egy nyolc számjegyű összeget.
Nem kell. A Zenimax engedélye kell, mert ők adják ki a Bethesdán keresztül. De ezek kiadói szerződések, míg az AMD nem kiadói szintre szerződött, hanem fejlesztői szintre, ahol gyakorlatilag az R&D egy részét látják el. Azért tudott az id tech 6 egy csomó mindenben első lenni, például Vulkan és zárt SPIR-V intrinsics, mert az AMD írta meg nekik a kódok egy részét.
A Zenimaxon belül nincs átfogó motorfejlesztés. Az id Software biztosít egy adott verziót az id techből, és azt a leányvállalatok eltérően fejlesztik tovább. Az id Software már rég az id tech 7-et írja, és az id tech 6.x-szel már nem foglalkoznak, viszont a forráskód ott van a Zenimax leányvállalatainál, azt úgy alakítják, ahogy akarják. Ennek az a legnagyobb előnye, hogy az id Software nem felel semmi másért, csak a saját házon belüli projektekért, így minden problémát helyben kezel a többi stúdió, az id Software segítsége nélkül.
Évente többször kell találkozni az NV és az AMD emberével, és akkor sok dolgot meg lehet ám tudni tőlük.
-
Abu85
HÁZIGAZDA
válasz
huskydog17 #39688 üzenetére
A MachineGames-szel van szerződésük. Az Bethesda (id software-rel) exkluzív szerződése van az AMD-nek még három évig. Őket ki kell vásárolni belőle, ami elég drága lenne. Viszont a MachineGames és az Arkane abból a szempontból szabad préda, hogy az ő anyacégük a Zenimax, és nincs közük az id-hez és a Bethesdához, vagyis nem érinti őket az AMD-s szerződés.
A kérdés egyébként az, hogy az id software-re mi vonatkozik, mert az AMD nekem azt mondta, hogy a Bethesdával kötöttek szerződést, és abba belevették az id-t. Nem tudni, hogy az alapszerződés exkluzivitását örökölték-e.
-
syberia
veterán
válasz
huskydog17 #39598 üzenetére
Ez is Rage, bár csak 3 players deathmatch.
(#39581) Dtomka: Újabb ballépést sejtek a lépés mögött.
-
Sylvanas
csendes tag
válasz
huskydog17 #39603 üzenetére
Értem én, hogy nem szereti az async compute-ot az 1080Ti de ennyire, hogy 1080p-ben 142 fpsem van míg natív 1440p-ben csak 80-90?
Ráadásul a játék grafikája úgy néz ki, mint egy elmosódott okádék maxon.
-
Abu85
HÁZIGAZDA
válasz
huskydog17 #39603 üzenetére
Na szóval semmi komoly para nincs. Arról van csak szó, hogy a memóriamenedzsmenthez egy nem módosított AMD VMA-t használnak, ami ugyan működik, de némelyik puffert elér a CPU és a GPU is. Na most ezeket a VMA a Radeonokon a videomemóriába helyezi, és itt éri el őket a CPU és a GPU, viszont GeForce-on ilyen memóriatípus csak a rendszermemóriában van ezért itt a rendszermemóriában lesznek ezek a pufferek. Emiatt a GeForce nem csak a VRAM-ig megy értük, hanem a sokkal távolabbi rendszermemóriáig. Ugyanakkor igen pici adatokról van szó, tehát annyira erősen ez nem befolyásolja az élményt, de persze mérhető lesz, hogy nincsenek ott a VRAM-ban.
A megoldás lényegében annyi, hogy a VRAM-ba kell őket menteni más memóriatípusba, és kell írni rá egy módosított menedzsmentet, ami kimásolja a puffereket a rendszermemóriába, majd vissza. Erre jó az aszinkron transzfer az API-ban, csak az AMD VMA eléggé általános middleware, így nagyon specifikus igényekre nem kínál megoldást, de a nyílt forráskód miatt átírható. -
GodGamer5
addikt
válasz
huskydog17 #39606 üzenetére
Ahhoz képest sokkal szebb is. Nagy hulladék ez a JC4.
proci985: Ekkora downgrade mellett nincs is min csodálkozni. -
proci985
MODERÁTOR
válasz
huskydog17 #39606 üzenetére
es a just cause 4 sokkal de sokkal jobban fut a haromnal. marmint nem benchmark korulmenyek kozott hanem amikor az ember atment egy toltesi hataron vagy amikor felrobbant veletlenul egy fel bazis
-
Raymond
titán
válasz
huskydog17 #39603 üzenetére
Ami azert szerintem problemas a jatekkal az az hogy mar 1440p-ben is kifogy a szusz a legtobb kartyabol. Csak a mostani (2080Ti, 2080, Vega VII) es elozo gen (1080Ti) csucskartyai hozzak a 60FPS-t. Na meg a 2070 legalabb a 60 atlagot is. Azert ez eleg durva, van vagy lett volna meg ott mit csiszolni, mert ha 4K-n kohog a jatek az meg ertheto, de hogy mar 1440p-ben is problema legyen egy markenyi csucskartyan kivul az enyhe tulzas.
-
Abu85
HÁZIGAZDA
válasz
huskydog17 #39603 üzenetére
Estére ígértek választ, hogy miért ilyen a GeForce frame time. Annyit mondtak, hogy van magyarázata és javítható is, csak nem tudta elmagyarázni a marketinges.
-
imi123
őstag
válasz
huskydog17 #39601 üzenetére
Köszi az infót.
Annyira nem olvastam utána csak láttam hogy nem a legfrissebb driverrel tesztelték. -
imi123
őstag
válasz
huskydog17 #39598 üzenetére
Megvárhatták volna az AMD-s "game ready" drivert.
Most jött ki.(19.5.1).Nem keveset gyorsul vele a Radeon VII. -
válasz
huskydog17 #39598 üzenetére
lol nem gyenge
-
válasz
huskydog17 #39536 üzenetére
és mennyi az a több? 1-2 fps? egyébként egál? esetleg másik jelenetnél fordítva? mert akkor a játék dx12 módja nem helyez előnybe egyik gyártó kártyáit sem, és ennyi a történet.
más kérdés, hogy a td2 fórumban senki nem fogja neked dícsérni az nv dx12 driverét. van, akinél óránként dől össze, van akinél ritkábban, van akinek gyakrabban. -
válasz
huskydog17 #39487 üzenetére
A Vulkannal tapasztalt problémák az API vagy a programozók hibája?
-
Abu85
HÁZIGAZDA
válasz
huskydog17 #39475 üzenetére
Azért én használom, mert lényegesen jobb, mint a DX11-es leképező. Igaz 4 GB VRAM miatt nem tudok maximális textúrával menni, de csak abból kell visszavenni, és sokkal jobb sebességet kapok Vulkan alatt.
Én Vulkanon is azt látom, hogy jó minden. Igaz GeForce-szal még nem próbáltam. Annyi van, hogy van egy másfél-két perces periódus, amin át kell esni az akadásokat tekintve, és utána nincs egy szál se. Ez minden programindításnál így van, de két perc alatt megszűnik. Kivéve max grafikán, ott sajna kevés a 4 GB VRAM. De ez van, DX11 alatt is kevés.
Abszolút nem fut szarul, ha a 19.4.2-es meghajtótól használod. Én már egy újabbat használok, de az még béta, van nem kevés egyéb problémája, viszont még a 19.4.2-nél is újabb a Vulkan implementáció, és a WWZ-ben úgy kb. még gyorsul 5-10%-kal.
Amikor olyan újításokat használ egy program, mint mondjuk a subgroup arra azért nehéz tökéletes drivert csinálni a startra. Az AMD a saját meghajtóit a saját kiterjesztéseire írta, de ezek ugye eleve nem szabványos shaderek a program oldalán, tehát csak AMD-re tesztelik őket, és nyilván egy gyártóra jól lehet ezeket optimalizálni. A WWZ már nem használ gyártónként eltérő shadereket, hanem szimplán a subgroup függvényeket hívja meg, amely szabványos megoldás, viszont így már nem tudsz a shaderből nagyon gyártóspecifikus lenni, vagyis figyelembe kell venni az AMD mellett az NV-t és az Intelt is. Ezeket a shadereket viszont nem teljesen úgy kell fordítani, mint a régieket, mert régebben az történt, hogy egy shader a GPU-n csak egy szállal futottak. Itt a szál nem ugyanaz, mint a CPU-nál, inkább lane-nek szokás hívni, de a lényeg az volt, hogy csak a lane volt definiálva program szintjén, miközben a GPU-k szálszintű párhozamosságra tervezett megoldások, vagyis alapvetően képesek arra, hogy több lane-t futtassanak egy wave-ben (a wave-et a Vulkan subgroupnak hívnak, igazából mindegy a név). Tehát a legacy shadereknél a GPU-k még nem mondták meg az alkalmazás felé, hogy egy waveben/subgroupban hány lane-t képesek futtatni párhuzamosan, vagyis a shader fordító nem tudott más tenni, mint logikailag egy lane-re fordítani, és utána összefűzni a munkákat. Ez viszont nem igazán hatékony, mert a meghajtó számára nincs túl nagy mozgástér arra vonatkozóan, hogy egy shadert milyen GPU ISA-hoz közeli kóddá fordít. Ezért vezetik be az újabb nyelvek a szálszintű párhuzamosságot. Ezt ugyan az AMD már jó ideje elérhetővé teszi kiterjesztésekkel, de mint írtam, ilyenkor a fejlesztőknek specifikus shadert kellett írni AMD-re, aminek vannak karbantartási költségei is. Persze akkora gond ez nem volt, mert az AMD kiterjesztései gyakorlatilag úgy lettek megírva, hogy kis módosítással megegyék a PS4 kódjait, tehát akkora munka ebből így sem volt, viszont egyrészt a karbantartás így is költség, másrészt ezekkel a kódokkal az NVIDIA és az Intel semmit se tudott kezdeni. A szabványos megoldás ugyan picit kevesebbet tud, mint az AMD-é, pár függvény hiányzik belőle, de ezeket amúgy sem használták annyira, illetve a szabványosság nagy előnye, hogy az Intel és az NVIDIA is célozható. Viszont annyira más shader fordítót igényel, hogy elég sok munkát újra kell kezdeni, ugyanis már logikailag több lane-re kell fordítani, mivel a korábbi szálszinten soros feldolgozást felváltotta a szálszinten párhuzamos (a szál itt megint inkább lane-t jelent). Emiatt hiába írtak a gyártók akármilyen hatékony shader fordítót az elmúlt években, azt a know-how-t nagyrészt dobhatják ki, mert teljesen más fordító kell erre az új modellre. Az AMD is a saját kiterjesztéseihez írt fordító módosítását használja, míg az Intel és az NVIDIA számára ez nagyon új terület, ők nem igazán foglalkoztak ezzel a kérdéssel kiterjesztés szintjén, tehát nem sok tapasztaltuk van arról, hogy mi az optimális. Az AMD-nek pedig hiába van itt tapasztalata, más szabványos shaderről fordítani, illetve olyan shaderről, aminél a kiterjesztés specifikációját te magad írtad. Tehát ezzel nekik is lesz munka, csak némileg jobb teljesítményszintről indulnak a GPUOpen intrinsics miatt.
Egyébként valakinek mindig kell lennie elsőnek. A Doom amikor elsőként bevetette a Vulkan API-t, ugyanígy csak az AMD-nek kedvezett, mert akkoriban az NV drivere sokszor OpenGL alól hívogatta a Vulkan API-t, az meg persze, hogy nem gyors. A Doomnak persze probléma volt az allokációval is, de arra ugye jött egy NV kiterjesztés (NV_dedicated_allocation), amiből később szabvány (VK_KHR_dedicated_allocation) lett. Itt a Khronos Group nagyon sok dolgot csak átmásolt a Mantle-ből, aztán túl későn derült ki, hogy ez nem jól mappelhető GeForce-ra, és ezt az előbb említett kiterjesztéssel korrigálták. De akkor is a Doom az első Vulkan cím volt, és az első problémába bele is futott, pedig nem a Doom leképezőjével volt a gond, hanem csak azzal, hogy úttörők voltak, és az úttörők találják meg az adott ökoszisztéma gondjait is. De aztán jöttek az új NV driverek, és elkezdett gyorsulni a játék. Eltelt a megjelenéstől nagyjából egy év, és elég szépen teljesítettek a GeForce-ok is. Most a WWZ fejlesztői bevetették a subgroupot. Bevállalták az úttörő szerepet, és mint mindig beleütköztek a problémákba. Ettől a Vulkan implementációjukkal, ugyanúgy nincs gond, ahogy a Doomnak se volt, de a driverek nem állnak készen. De ettől az NV nyilván meg fogja írni jól a fordítót. Ezen eleinte elég sokat is lehet javítani. Lehet, hogy beletelik négy-öt hónapba, de ugyanúgy meglesz a támogatás, ahogy a Doomnál, mert nem ez az utolsó játék idén, ami subgroupot használ. Például a Quantic Dream is subgroupra tudja portolni a PS4 intrinsics függvényeit. Más lehetőségük nem igazán van, mert az AMD SPIR-V kiterjesztései csak Radeonon működnek.
-
gejala
őstag
válasz
huskydog17 #39442 üzenetére
Mitől lenne hulladék? Én össze szoktam vetni a saját eredményeimet azokban a játékokban, amik nekem is megvannak és eddig még mindig ugyanazt kaptam, amit ők. Persze néha kicsit fura dolgok jönnek ki náluk, de ez mindenhol előfordul. Még a ph-n is.
Én TPU, Techspot, Guru3D, HardwareCanucks, AnandTech és Gamegpu kivételével senkinek nem hiszek már, túl sok teljesen kamu mérést láttam már máshol.
-
pengwin
addikt
válasz
huskydog17 #39442 üzenetére
Az a GPU Load grafikon nem lehet helyes a Vulkan API-nál.
Nem gondolhatják komolyan, hogy a Vulkan 20-30% közötti GPU Loaddal hozza a DX11 teljesítményének 95%-át. Ott nem jelzi helyesen a program a GPU terhelést.
To be honest, the game, especially on the NVIDIA GeForce RTX2080Ti, was almost unplayable due to these stutters.
Hát igen, vicces az RX580 teljesítménye alá jócskán beeső minimum FPS. Mondjuk azt költői túlzásnak érzem, hogy egy játék 51 FPS-re droppolva játszhatatlan legyen. Főleg bármilyen *sync kijelzőn.
De mégis mit tud ez a játék, hogy egy sok százezres 2080Ti csak ekkora sebességgel tudja futtatni FHD-n?Nem tűnik olyan forradalminak sem látvány, sem játékmenet, sem AI szempontjából, ennél jóval többre kéne futnia a 2080Ti teljesítményének.
-
pengwin
addikt
válasz
huskydog17 #39433 üzenetére
Szép, szép, de konkrét számokat és méréseket sehol sem írtak a CPU terhelésről.
Ha ilyen CPU limitbe futnak, akkor nyugodtan lehetne egy mag-lekapcsolós tesztet is csinálni, mert az Anno sorozat tudtommal eddig sem volt a többszálúsítás éllovasa.
-
válasz
huskydog17 #39351 üzenetére
Majd egy ilyesmi, kisebb kiadásban
[link]
Kár, hogy ilyenről nem születnek cikkek a PH-n. -
proci985
MODERÁTOR
válasz
huskydog17 #39332 üzenetére
pcgameshardware.de meg mindig kb a legjobb.
anno az offline ujsagjuk is zsenialis volt
-
CsonkaImo
addikt
válasz
huskydog17 #39311 üzenetére
Munkába vagyok, így nem tudom megnézni a videót. Milyen konfigon fut a játék?
Új hozzászólás Aktív témák
Hirdetés
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
Megbízhatatlan oldalakat ahol nem mérnek (pl gamegpu) ne linkeljetek.
- Nvidia Quadro M2000/ M4000/ P2000/ P2200/ P4000/ P5000/ RTX 4000/ RTX A2000 / RTX A4000
- Telefon felvásárlás!! Samsung Galaxy A50/Samsung Galaxy A51/Samsung Galaxy A52/Samsung Galaxy A53
- Eladó ÚJ, BONTATLAN Samsung Galaxy A05s 4/64GB ezüst / 12 hónap jótállással!
- Lenovo Thinkpad L14 Gen 4 -14"FHD IPS - i5-1335U - 8GB - 256GB - Win11 - 2 év garancia - MAGYAR
- Apple iPhone SE 2020 64GB, Yettel függő, 1 Év Garanciával
Állásajánlatok
Cég: CAMERA-PRO Hungary Kft
Város: Budapest
Cég: PC Trade Systems Kft.
Város: Szeged