Új hozzászólás Aktív témák
-
Rido
csendes tag
Nem sikerült az új kiegészítő túl Diablo-sra? A párbeszédek átalakultak 1-2 sorrá, a tálca is olyan lett mint a Diablo-ban meg állítólag van a játékban valami Diablo-s pet is. A karakterek is olyan darkosak lettek. A játék így nem fog egy Diablo klónná válni idővel?
-
laposonly11
senior tag
Ha csak a felbontást növeled minimálisan növekszik a vram igény, azonban ha ehhez még AA is kell, akkor az élsimítás típusától függően a VRAM igény akár látványosan is különbözhet (ehhez még a játékon belül megjelenített objektumok mennyisége is rádob, tehát nem csak játékonként más, hanem egy játékon belül is más lehet, pl. Crysis 1 sűrű dzsungele, egyértelműen több adattal terhelte a hardvert, mint a C2 kicsi városi utcái.) Érthetően itt a gyengébb és gazdaságosabb AA típusoknak kell kevesebb vram, míg a bonyolultabbaknak több, ami magasabb felbontásnál pedig hatványozottabban több, ez a rövid kis teszt jól mutatja a különbségeket pl. egy Shadow of Mordor esetében:
FullHD - 4K
4767 MB - 5433 MB
Ez így alig 13%-al több ramigény
Addig egy Unigine Heaven esetében viszont:
1142 MB - 2981 MB
Itt viszont már több mint 60%-os a növekedés!Mondjuk a teszt annyiban hiányos, hogy egy játékon belül, nem hasonlít össze különböző AA eljárásokat.
(C1 azért került szóba, mert azt akár egy 500 Mb-os VGA-val is ki lehetett játszani highon.)
- Lehetett de ahogy korábban írtam, alacsony felbontású textúrákat használtak akkoriban (ill. az általános monitor felbontás fele annyi pixelből állt 1280x1024), ha leszeded a 2016 os HD textúra packott a játékhoz, akkor a készítő már 3GB vramot ajánl hozzá: itt a link
-
Ragnar_
addikt
válasz
laposonly11 #87 üzenetére
(Volt C2-höz dx11+ high res textúra pack egyébként PC-re.) És ugye elhangzott , hogy a következő generációs VGA-kon eseleg még több VRAM lesz. Persze 4K-hoz és AA hoz elég sok VRAM kell, ha jól tudom,de attól nagyságrendileg nem lesz jobb a grafika, csak a felbontás. (C1 azért került szóba, mert azt akár egy 500 Mb-os VGA-val is ki lehetett játszani highon.)
-
laposonly11
senior tag
Mondjuk a Crysis 1 rossz példa volt, mert ugye abban elég alacsony felbontású textúrák vannak, a Crysis 2 ben meg állítólag még annál is alacsonyabbak, mivel egy játék mérete és hely a vramban legfőképpen a textúráknak kell, lehet hogy az előző generációs konzolok miatt lett butítva a C2 és szűk, gyengébb hardvert igénylő városi környezetbe rakva az egész. Na most a textúrák mérete és mennyisége igen csak megnövekedett, mivel a változatosabb helyszínekhez egyre több tereptárgy is meg kellett jelenjen a játékokban.
-
Raysen623
addikt
A C2 a C1 után egy fostenger volt. Nem véletlenül vitték be a játékteret a városba, ami alatt aztán tesszellálták az óceánt meg még sok minden mást is, hogy a pirosak kártyáit visszafogja. A C3 ismét jobb lett szerintem. A felesleges hw erőforrás pazarlás meg azóta is megy PC-n. Így lehet elérni, hogy a fan-ok minden évben kártyát cseréljenek. Most a memória árak miatt még várnak a gyártók, de figyeljétek meg mi lesz itt ha kijön az új széria.
-
Ragnar_
addikt
válasz
laposonly11 #82 üzenetére
A GR WL-t nem ismerem igazából, csak screenshotokról, a Crysis szériát ismerem. Mondjuk ha a C1-et vesszük alapul ott meg 500Mb-os VGA-val is neki lehetett állni kijátszani, viszont az optimalizálatlanabb volt mint a C2, ami már megjelenésekor is ment az aktuális konzolokon is.
-
laposonly11
senior tag
A Crysis 2, szerintem még mindig jobban néz ki, de abban akkor is csak rövid pályaszakaszok vannak, lényegében egy csőben szaladsz, a GR W. meg tudtommal egyszerre tölt be egy fél megyényi területet.
Az összehasonlításhoz szerintem inkább a Crysis 1 egyik nagyobb pályája lenne a mérvadó, vagy egy Far Cry 3-4-5. -
Ragnar_
addikt
Azt nem mondom, hogy értem,
de az tényleg nem gyenge, hogy egyegy játék (GR Wildlands pl.) képes közel 5Gb-nyi VRAM-ot fogyasztani ultra beállítások mellett FHD-ban.. A Crysis2-nek még elég volt kb. 1-1.5Gb. Persze fejlődött a grafika és a látvány ahhoz képest, csak nagyságrendileg nem annyit, mint a hardverek. Vagy tényleg ekkora extra erőforrások kellenek némi előrelépéshez a vizuális minőségben ?
-
Abu85
HÁZIGAZDA
A DX12 is ilyen. A Vulkan esetében két tényező van, ami fontos még. Az egyik, hogy jellemzően OpenGL-ről váltanak erre az API-ra, amibe nagyságrendekkel kevesebb erőforrást rak minden érintett a DX11-hez viszonyítva. A másik, hogy a Khronos sokkal inkább egy közös nevezőre tervezte az API kritikus részeit, ami jó például az NV-nek, illetve alapvetően mindenkinek. A Microsoft nem igazán foglalkozott ezzel, ami jó volt az Intelnek azt specifikálták és kész. Az részletkérdés volt, hogy helyenként ezzel az NV-nek kárt csinálnak, például a parancslistáknál vagy a root signature esetében. Az AMD-vel sem igazán foglalkoztak, nekik csak szerencséjük, hogy a GCN semmire sem kényes igazán, tehát az is jó, amit a Microsoft specifikál, és az is jó, amit más ajánl, teljesítményben nagyjából ugyanott lesznek.
A DX12-vel egyébként két tipikus késbe lehet futni. Az egyik a parancslisták helyzete. Ebből sok kicsi kell, hogy az NV-nek jó legyen a program, és az Intel, illetve az AMD meghajtója nem különösebben érzékeny erre, tehát nyugodtan lehet az NV ajánlásai szerint fejleszteni, az más kérdés, hogy ez a program oldalán nem kevés extra meló, tehát mondhatja a fejlesztő, hogy "baszki erre nincs időnk, hozzatok jobb hardvert". A másik tipikus gond a root signatures. Az NV azt szereti, ha buffer viewek közvetlenül ebben vannak, míg az Intelnek ez pont nem jó, és azt kedvelik, ha a Microsoft ajánlásai szerint ebben lehetőség szerint csak közvetetten vannak buffer viewek a leírótáblákon keresztül bekötve. Az AMD-nek pedig igazából mindegy, hasonló a teljesítmény így is, úgy is.
Egyébként annak oka van, hogy a Microsoft miért így alakította ki a specifikációt. A buffer viewek esetében azért nem ideális, ha közvetlenül a root signatures részei, mert a leírótábla vagy -halmaz mögött ezek állapotát manuálisan követni kell, így ha mondjuk új információ kerül beírásra, akkor tudni kell, hogy az olyan helyre kerüljön, amit a GPU már nem használ. A root signatures részeként ez a szabály nem érvényes, vagyis minden új információt a rendszer új memóriaterületre írja, meghagyva a régi adatot is, ugyanis nem kötelező érvényű, hogy egy leképező kiderítse, hogy az használatban van-e, és jellemzően nem is teszik meg, mert a root signatures részeként nem olcsó az eljárás. Ez viszont azt jelenti, hogy a memória folyamatosan telik meg a játék előrehaladtával, amire végeredményben nagyon nehéz alkalmazásoldali menedzsmentet írni, mert csak egy bizonyos időtávon belül lehet nagy biztonsággal meghatározni, hogy mi lesz a memóriában. Hosszabb távon viszont már jönnek a gondok, ami előhozza azokat a teljesítménykritikus jelenségeket, amelyek létezése a vezető indoka volt az explicit API-k megalkotásának. Szóval a buffer viewek helyzete marhára nem egyértelmű. Igen nyomós indokok vannak arra vonatkozóan, hogy miért nem jó az NV ajánlása. És igazából a mai memóriaárak mellett a brute force módszerben sem lehet bízni, hogy majd úgyis lesz 20-30 GB VRAM a VGA-n, amit tele lehetne pakolni szeméttel.
-
laposonly11
senior tag
válasz
kikikirly #50 üzenetére
Azért, mert amióta a marketingesek vették át a hatalmat a kreatív művészek felett, azóta a tőke dirigál nem az ötlet, azóta nem készülnek, vagy legalábbis nagyon ritkán kockázatos új ötletek, hanem inkább a bevált régi módszerekbe fektetnek (pl. Kól of Djúti 25. része), mert az szinte biztosan megtérül, ez a szemlélet stabilizálódott a mai játék és filmiparra. Csak a kezdet volt tiszta, addig volt jó, amíg 2-3 ember programozott játékot egy garázsban, DOS alá, na ott még senki sem szólt bele, mit hogyan merre, akkoriban elég volt egy jó ötlettel előállni és azt előhozni egy kiadónál, a mai kiadók már csak kizárólag késztermékeket fogadnak el, ezzel tulajdonképpen kizárva a szabadúszó kis csapatokat mint konkurenciát, vagy legalábbis a független (indie) piacra kényszerítve őket, ahol ugye nem igazán van hozzáférés, a nagy kiadók jobb játékmotorjaihoz (Így itt zömében, legfeljebb csak a jobbra-balra scrollozódó 2-2,5-3 dimenziós, platform koncepció képes csak megvalósulni). A grafika is csak azért fejlődhet, mert a grafikát megjelenítő hardvert fejlesztik, azonban tartalmilag már egyre ritkábban várható változás a nagyobb kiadóknál. Éppen ezért óriási kontrasztot képezve, rendkívül kreatív megoldásokat láthatunk az indie piacon.
Az a csodával lenne egyenlő, ha a ma már a vadkapitalizmus uralta kiélezett globális versenypiacon, a júzer, vagy annak kisebb-nagyobb csoportaji, bárminemű befolyással bírna az irodalom, film, zene és egyéb művészeti területeken arra, hogy tartalmilag milyen legyen egy nagyipari tömegtermék.
Ugyanez a liberális-vadkapitalista pusztán haszonelvű mentalitás érvényes az élelmiszeriparra és játszik az egészségünkkel! Mert ugye nagyobb bevételt hoz egy genetikailag módosított, vízízű, gyorsan érlelt óriásnarancs, mint egy original, bio, édes verzió, aminek legrosszabb esetben sem csak a fajtájára jellemző 10%-os a C-vitamin tartalma, hanem a 100-at közelíti. Persze megjelent újra az original, tehát bio, de azóta ezért már felárat kell fizetni...
-
-
Raymond
titán
AMD Phenom 2 X4 955 ha a kollega adatlapja aktualis.
-
Anaren91
senior tag
Most lehet én emlékszem rosszul, de a dx 12 nem épp a gyengébb processzorral szerelt gépeken dobja meg az fpst? Mert tök jó hogy lemértek pár kártyát pl egy i7 8700k társaságában, de kíváncsi lennék mit mutat egy fx akármi meg egy rx 560 mellett pl.
Vagy például én pont wowra szeretnék összerakni egy budget gépet, egy ryzen 2200g n gondolkodom perpil, jó lenne tudni, hogy azon pl mit dob. -
Abu85
HÁZIGAZDA
Az is. Mindegyik GeForce. De nem akkora para ez, mint amilyennek tűnik. Akkor lenne gond, ha az Intel és az AMD implementációja például pont azt nem szeretné, amit az NV implementációja szeret, de az Intel és az AMD DX12 meghajtója egyáltalán nem kényes, jó az is nekik, ha az NV parancslistákra vonatkozó ajánlásait követi a fejlesztő. Igazából a nagy kérdés, hogy a Blizzard miért nem azt követte. Elképzelhető, hogy volt valami ellenérv a háttérben, csak nem tudunk erről.
(#72) Puma K: [link]
-
Baryka007
addikt
Ezért is nem reális a fentebb belinkelt táblázat... Ugyanis ilyen VGA-k mellett DX 11 alatt is közel CPU limites volt a helyzet ( azért még nem volt az tudom.. ) De pl ha egy GTX 1050 ( nem Ti ) és egy RX 560D vagy ilyesmivel vizsgálták volna a különbségeket, akkor ott már érezhető lett volna. Sajnos nVidia esetbéen negatív irányba, de ez a támogatottsága miatt alakult így.
-
Abu85
HÁZIGAZDA
Nem. Az NVIDIA hardverei egy probléma miatt lassulnak nagyot. A DX12 implementációjuk nem igazán szeret bizonyos dolgokat. Erre speciel fel is hívják a figyelmet:
"Be aware of the fact that there is a cost associated with setup and reset of a command list
- You still need a reasonable number of command lists for efficient parallel work submission
- Fences force the splitting of command lists for various reasons (multiple command queues, picking up the results of queries)"A probléma az, hogy a Microsoft például egyáltalán nem dokumentál semmit arra vonatkozóan, hogy a fences kényszeríti a parancslisták felbontását. Ergo az API nézőpontjából ez a tényező nem létezik, és a GPU-nak belül kell az érintett problémákkal megbirkóznia, a DX12 gyártói implementációja mögött. Egy ideje viszont gyanítható, hogy az NV architektúrái bizonyos feladatokat nem tudnak elvégezni a host processzor segítsége nélkül, vagyis ha a fejlesztők nem gondoskodnak speciális kódról annak érdekében, hogy megfelelő legyen a hardver számára a párhuzamosan futtatható feladatok biztosítása, akkor a GeForce-ok egy rakás stallba futnak, ami bedönti a DX12 alatti teljesítményüket. Ez ellen az egyik megoldás, ha az NV ajánlásait figyelembe veszi a fejlesztő, mert az AMD és az Intel DX12 implementációjának nem különösebben számít, hogy kevés vagy sok parancslista van. Az NV-nek viszont létkérdés, hogy sok legyen.
-
Abu85
HÁZIGAZDA
válasz
kikikirly #57 üzenetére
Hülyeség magszinten felosztani a feladatokat. Sokkal jobb egy job rendszer, több motor is így dolgozik ma. A skálázódás ott szokott nehézségbe ütközni, hogy a CPU-időt elveszi a GPU kernel driver, de explicit API mellett ez sincs, tehát itt már tényleg felhasználható a szabad CPU-idő. Ehhez viszont megfelelően kell tervezni a motort.
Nem a háromszög a Wolf 2-nél a probléma, hanem a rajzolási parancsok száma. Ez a Doom esetében 1000/frame volt. A Wolf 2-nél 30000/frame. Működött igazából az OpenGL port, de annyira lassú volt, hogy értelmetlenné vált a szállítása, a GPGPU cullingot sem portolták rá, de mondjuk ez kikapcsolható volt.
Háromszögek szintjén a Wolf 2 hatmillió háromszög/frame-mel dolgozik, ami nem kirívóan magas érték, bár persze nem is alacsony. -
mikromanus
veterán
Igazán szép és jó, de az ilyen "mobil graphic" játéknak minek? Kicsit koros ez már. Némi "újradolgozás" kellene esetleg, mert ez már elég belépőszint alatti 2018-ban. (Bocs, ha beletiprok esetleg ezzel a HC WoW-osok lelkébe)
-
pengwin
addikt
válasz
Baryka007 #32 üzenetére
És tulajdonképpen hány szálat is használ a játék?
Mert a Blizzard játékok híresen-hírhedten a távoli múltban ragadtak többszálúsítás terén, és eléggé hasraütésszerű a minimum és ajánlott gépigény... a két i7 között elég nagy a különbség, ellenben a két FX meg nagyon hasonló teljesítményre képes.
(#58) Raymond & (#59) Puma K
Nem tudom mit vártatok egy ilyen régi motor DX12-es módjától. -
turistakolbi
aktív tag
válasz
Baryka007 #28 üzenetére
Azért dobta a kukába az UE4-et mert Single játékokra jó. ahol 40+ ember van egy helyen ott már bugos szarhalmaz az egész motor
Példa: fortnite; PUBG;
lassan 2 éve csiszolják őket, de még mindig vannak 1080TI- 8700k kombóval 4-5 sec amikor 40 fps alá esik az egész.Belegondolni sem merek , mit csinálnál oggrimarban amikor 400+ játékos van egy blokkon belül
Fejleszteni kell a motorokat. DX12 - És Vulkan már ad elég teret. Blizzardnál nagyon okos fejlesztők vannak. Nem véletlenül csinálják úgy a dolgaikat ahogy..
-
kikikirly
senior tag
4 Magos CPU-k megjelenésénél is szóba került hogy lesz külön mag ami csak a fizikát számolja.Amennyire tudom ebből nem lett semmi.És hiába a 8 mag, többszálú skálázódást nem olyan egyszerű megoldani, ez fórumokon rendszeresen előkerülő téma olyanok részéről akik konyítanak a témához.Biztos segit ezen a DX12/Vulcan, mindesetre eddig egyik ilyen apival készűlt játékba se láttunk szignifikáns előrelépést.Abu 85 magyarázta valahol hogy a Wolfeinstein 2 valami 3x annyi hárömszöget rajzol ki mint a Doom, ezt a mennyiséget már nem birta el az OpenGL, ezért van benne csak Vulcan. Grafikára nem igazán látok különbséget a két játék közt, mindkettő nagyon jól néz ki, de nem látom a Wolfi 2 miben szebb.Szóval amit nyernek a Low Level apikkal, úgyis elköltik valami másra.
-
Abu85
HÁZIGAZDA
válasz
kikikirly #51 üzenetére
A Microsoft Havok átalakítása az leginkább az Intel ötlete. Ők is dolgoztak rajta, csak ugye eladták a Havokot. De nagyrészt részei a projektnek. Nem nyilvános, de erre hozzák a saját GPU-jukat. Szóval az elérhetőség is nagyjából akkor lesz, amikor megérkezik a pGPU-s platformjuk.
-
kikikirly
senior tag
Értem és köszi a felvilágosítást.Lehet mégse a fejlesztők bolondultak meg teljesen.
Emiatt vette meg a Microsoft a Havokot, ami vissza fog majd térni egy új API formájában, és ott már CPU+GPU feldolgozási modell lesz. Az már ideális a fizikára.
Gondolom ennek azért nem állt neki Intel bácsi kizárólag CPU piacon érdekelt, és tojt a kettő kombinálására.
Microsoftnak meg egyikbe se érdekelt,neki az az érdeke hogy minél jobb motort tegyen le az asztalra.
Utolsó kérdés:
Nagyjából mikorra várható?1 év, 5év? -
kikikirly
senior tag
válasz
kikikirly #48 üzenetére
,,NV zárt PhysX rendszerének a lényege hogy az effektek döntő többségét GPU-számolja és nem CPU.
Azt ne mond hogy az a kis apró chip ennyi mindent kiszámol a nyákon. Ráadásul erőforrásokat von el, és a játékosok ugye inkább az FPS-t választják a minőségibb grafika helyett."Mért szerinted mi számolta?Mafia 2 leképzőre,objektumszámra, maga idejébe legszebb játékok közé tartozott(2018-as játékokkal összevetve is simán megállja a helyét,ezért is nem értem miért a leképzőbe öntik a pénzt, pedig egy mai játék 2-3x akkora büdzséből készül és ez mind a szebb leképzőnek ,,köszönhető", a User meg kb semmit nem vesz észre belőle,hasznosan elköltött pénz mondhatom).Tehát nem a rajzolási parancsok kárára volt benne fejlettebb fizika.
Ha cpu számolta volna a fizikát elmúlt 8 évbe miért nem láttunk olyat ami tudja hozni ugyanazt a szintet? -
Abu85
HÁZIGAZDA
válasz
kikikirly #48 üzenetére
Csak jobb leképezők kellenének, de ez sok pénzbe kerül. Viszont messze vagyunk az ideális szinttől. A legtöbb motor még texel shadingre se tért át, anélkül pedig aligha lehet nagyot lépni előre.
Az a baj, hogy maga a GPU nem igazán alkalmas egy rakás fizikai szimulációval kapcsolatos munkára. Önmagában legalábbis semmiképpen, mert ezek a pipeline-ok csak egyes lépcsőkben párhuzamosíthatók, más lépcsőben pedig a késleltetés a kritikus tényező. A probléma tehát túl komplex ahhoz, hogy csak a GPU-n vagy csak a CPU-n fusson. Emiatt vette meg a Microsoft a Havokot, ami vissza fog majd térni egy új API formájában, és ott már CPU+GPU feldolgozási modell lesz. Az már ideális a fizikára.
Sose írtam, hogy a Ray-Tracing abban a formában, ahogy alkalmazni akarják értékelhető. A Remedy adatai szerint hasztalan, hiszen pixelenként egy sugarat, virtuálisan maximum 4 méteres távolságig kilőve a számítások nagyjából 5 ms-ig tartanak Full HD-n egy Titan V-n. Ez azt jelenti, hogy még a raszterizációból is vissza kell venni, hogy működjön. Persze mondjuk két év múlva már sokkal gyorsabbak lesznek a hardverek, és aligha gondolkodik a Microsoft közelebbi dátumban.
-
kikikirly
senior tag
Talán le kéne állni a leképző csiszolgatással.Több éve elértük azt a szintet hogy önmagába bármit hozzá adjon a játék élményhez.Te elméleted szerint két út van:Leképző további csiszolgatása, fizika pedig marad mostani szinten. Mi lenne ha Leképző maradna a mostani szinten, és kártyák erősődésével Asycn Compute-ba számolt fizikával ki lehetne tölteni az üresjáratokat.Nem értem hogy az első miért magától értetődő lépés.Lövöldözős játékba szerinted mire vágynak az emberek?Hajszálnyival szebb leképzőre,am nagyitóval ha látod a különbséget vagy hogy repkedjenek a törmelék darabok, Killing Floor2-be látott sérülésmodellezésre stb. Kreativ játékokba is új mechanikákat lehetne építeni a fejlettebb fizikára.Egyszerűen nem fér a fejembe hogy a nyers grafika fotó realisztikussal vetekszik, fizika meg sehol nincs, és erre nem az a fejlesztők válasza, hogy oké gyerekek hagyjuk a bánatba leképző fejlesztést hisz objektum számba és mindenbe elértünk közel valósághű szintet, kezdjük el felhozni a fizikát is.Nem, nekik az a válaszuk hogy tovább növelik az ollót a ,,nyers" és ,,dinamikus" grafika közt.
Másrészt ott a Ray Tracing:az nem eszi meg Async Compute-ba a GPU-kat?Érdekes arra valahogy eltudnak különíteni plusz GPU erőforrást, fizikára meg nem(Úgy tudom azt is a GPU számolja,nem a CPU).Pedig ha valami, akkor a Ray Tracing aztán zabálja a GPU-kat.WTF???
#46Raysen623:
NVPhysX maga zárt hülyesége miatt érthető hogy nem terjedt el.Nem is ezt róttam fel a fejlesztőknek.Másrészt a PhysX eredeti formájába dedikált fizikai gyorsító kártya volt.PC-n az ilyesmivel mindig az a baj hogy a user és a fejlesztő bambán néznek egymásra.
User azt várja hogy legyen játék ami kihasználja fizikai gyorsitót,legyenek extra effektek, a fejlesztő meg arra hogy vegyenek a userek gyorsitót, legyen piac amit célozhat.Tipikus 22-es csapdája az egész story. -
hapakj
őstag
Aham. Szóval még mindig csak nVidia képes játékra használható drivereket írni.
-
Raysen623
addikt
válasz
kikikirly #42 üzenetére
"Nv a PhysX-el megmutatta mi a jövő."
Dehogy mutatta, helyette inkább megölte a jövőt. Ha a PhysX megmaradt volna olyannak amilyennek kitalálták, már rég előrébb tartanánk. Ehelyett bezárták egy kalitkába és ott halt meg szegény pára.
"NV zárt PhysX rendszerének a lényege hogy az effektek döntő többségét GPU-számolja és nem CPU."
Azt ne mond hogy az a kis apró chip ennyi mindent kiszámol a nyákon. Ráadásul erőforrásokat von el, és a játékosok ugye inkább az FPS-t választják a minőségibb grafika helyett. Meg kellett volna ezt hagyni egy bővítőkártyán és akkor bárki tudná használni VGA-tól függetlenül.
Azt sem tartom életképesnek, hogy minden VGA gyártó saját fizikai motort készít a saját kártyájukhoz, mert azzal csak a plusz munka van fejlesztői részről. Jelenleg a parasztvakítás korszakát értjük a játékvilágban, tehát rengeteg erőforrást elpazarolnak a grafikára, a játékra, fizikára, AI-ra meg nem adnak kellő számú fejlesztési időt. A plebs meg megveszi a 20. rókabőrt is mert nem gondolkodik és/vagy igénytelen.
-
Kolbi_30
őstag
Közben eltelt a szerkesztési idő...A T9 meg elkurta amit írtam..😂
Summa a jelenkori játékok nagy része, egymás klonjai.
Történetük tartalmuk kb nincs, de szépek. Hol van már a baldurs gate, meg newerwinter nights amivel el lehetett szórakozni. Most annyi van hogy lösz kettőt és nyertél. Vagy atoversenyzel körbe körbe kicsit mindig szebb grafikával. A gamereknek tartalom kéne leginkább -
Abu85
HÁZIGAZDA
válasz
kikikirly #42 üzenetére
A fejlesztők ma leginkább saját fizikai motort csinálnak, vagy megveszik a Havok licencet teljesen, és azt módosítják saját igények szerint.. Ha nem így lenne, akkor az Intel nem adta volna el a Havokot, az NV nem húzná ki a pénzt a PhysX mögül, stb.
A GPU-s fizikai motorral az a probléma, hogy ma a CPU inkább szabadabb erőforrás, mivel az explicit API kihasználhatóvá tette az eddigi zárt CPU-időt. A GPU-nál viszont az aszinkron compute pont bezárja az idle réseket, ahol futhatna egy szimuláció. Ahol pedig nagy segítség lenne a GPU oda a round trip miatt lehetetlen befogni.
Ha a GPU-s fizika tényleg működne a részecskeszimuláción vagy a cloth fizikán túl, akkor ma mindenki GPU-n számoltatná azt, de nem működik. A Microsoft későbbi fejlesztéseivel működhet amúgy, ezért vették meg a Havokot. Ők már sokkal integráltabb formában tekintenek a GPU-ra, nem egy CPU-tól 10 centire lévő különálló egységre. Az egy érdekes irány, és ott várhatók majd előrelépések. -
Kolbi_30
őstag
válasz
kikikirly #42 üzenetére
Ha lenne időm játékokra, én konkrétan örülnék, ha lenne bennük AI..most játszom néha a farcry5...hát szépnek szép, de ugyan az mint az összes többi...
AI az nem túl acélos..normális meg a kezdő fegyverrel simán végigtolod
Vagy az se lenne utolsó,ha nem Copyright össze játékok jonnenek -
kikikirly
senior tag
Nem az Nvidia megoldása a lényeg. Nv a PhysX-el megmutatta mi a jövő.Fejlesztőket mi gátolja meg abba hogy saját GPU-s fizikai motort csináljanak?Érdekes zárt CPU-s havok helyett tudtak csinálni saját CPU-s motort.Van sejtésem mért nem csinálnak, előző kommentembe leírtam. Egyszerűen fogalmuk nincs arról hogy mire vágynak a játékosok.Azt képzeli hogy az egyre realisztikusabb leképző, növeli a játék élményt és evvel együtt a játék eladásokat.Ray Tracing is a még realisztikusabb leképzést szolgálja.Érdekes módon az nem zavarja őket a hogy a már most is fotó realisztikus grafika mellett a fizika,sérülésmodellezés, stb megrekedt 10 évvel ezelőtti szinten.És ebbe nincs semmi túlzás, Ps4/Xboxe 1 éra semmit nem hozott ezen a téren a PS3/XBox360-hoz képest.Akkoriba látszott hogy a fejlesztők próbálnak minél dinamikusabb grafikát csinálni,és volt is fejlődés évről évre.Nem hiába akkor merült fel a dedikált fizikai gyorsító ötlete, amit később Nvidia felvásárlása után megkaptak a zöldek kártyái.Akkoriba azt gondolta az egyszerű gamer hogy néhány év és tényleg valósághű fizika lesz a játékokba.Ma melyik gamer gondolja ezt?
-
Abu85
HÁZIGAZDA
válasz
Busterftw #39 üzenetére
Az újabb verziók mögül még nem szedték ki a supportot, de gondolom ezekbe sem éri meg hosszabb távon önteni a pénzt.
(#40) kikikirly: De mit vársz a fejlesztőktől? Ők hozott kódból dolgoznak. Ha az NV azt többet nem támogatja, akkor azt ki kell szedniük, mert nem tudják garantálni a működését. Nyilván nekik is egyszerűbb lenne az, ha az NV adna supportot ezer év múlva is, mert akkor nem kell még a kiszedésre se költeni, de nem ez a helyzet. Egy fejlesztő ezzel nem nagyon tud mit kezdeni. Még ha meg is tartanák a támogatást, akkor sincs meg a licencük arra, hogy saját kézbe vegyék a supportot, amint módosítanak a kódon (mert visszafejthetnék és foltozgathatnák), szétpereli az agyukat az NVIDIA. Itt vagy cserélik más megoldásra, vagy kiszedik. Harmadik opció nincs. Biztos nem a fejlesztő ment oda az NV-hez, hogy lőjétek már le a támogatást, hogy legyen egy jó adag extra munkánk ezzel.
-
kikikirly
senior tag
válasz
Raysen623 #36 üzenetére
Az nem oldana meg semmit. Havok ugyanolyan CPU-s fizikai motor mint a többi X tucat a piacon.NV zárt PhysX rendszerének a lényege hogy az effektek döntő többségét GPU-számolja és nem CPU.Véleményem szerint ezért nem fejlődött semmit az elmúlt 8 évbe a játékok fizikája,egyszerűen a CPU-ból ennyit lehet kihozni.Pár százaléknyi generáció váltást elviszi a szebb leképzők többlet rajzolási parancsai.
Meg ugye a többszálusitástast se olyan egyszerű megoldani számottevő Overhead nélkül.Mafia 2 8 éves játék, azóta se láttunk ,,hagyományos,,(CPU-s) fizikai motorral megáldott játékba olyan particle és törmelék fizikát.
Múltkor 2 méterről rálőttem a gengszterekkel megpakolt autóra, sikerült első golyóval a tankját eltalálnom, repkedtek mindenfelé az autó darabjai.Állati volt(GTA 5-be egy kocsirobbanás sehol nincs ehhez képest)
Ez egyben azt is bizonyítja hogy mai jóval erősebb GPU-k relativ könnyedén megbirkóznának vele,szóval nem enné meg a gépeket vacsorára.Mégis a fejlesztők inkább a Raytracingbe látják a fantáziát, holott lótúrót nem ad a játék élményhez, és 4 Titan V kártyát simán bekajál....Sajnos úrrá lett a mérnöki szemlélet, mai fejlesztők nem játszanak játékaikkal. -
domos
senior tag
Tökéletesen fut Dx12-vel Quadro P5000 kártyán.
-
Abu85
HÁZIGAZDA
válasz
cskamacska #34 üzenetére
Azért nehéz a PhysX helyére mit rakni. Azt ugyanis le kell fejleszteni. Tehát, amikor az NV elmondta nekik, hogy levágják a supportról a felhasznált PhysX verziót, akkor kb. az egyetlen megoldás az volt, hogy kiveszik. Ez minden zárt rendszernél probléma. Nem a fejlesztő birtokolja a kódot, így amint a tulajdonos levágja a lélegeztetőről, azonnal veszik is ki a játékokból, mert support nélkül nem tudnak vele mit kezdeni. Ha mondjuk valami bugot okoz, akkor csak nézhetnek egymásra, mert az NV nem fogja javítani, ők pedig nem tudják javítani. Még ha vissza is fejtik a forrást, akkor is a licenc megakadályozza, hogy beleírjanak.
A Warframe helyzete azért volt sokkal könnyebb, mert ők a konzolhoz eleve írtak egy másik alternatívát, tehát amikor az NV belengette, hogy lekapcsolják a PhysX-üket, akkor rögtön tudtak egy másik rendszerhez nyúlni.
De láthatod, hogy a fejlesztő keze meg van kötve. Nem tudnak mit tenni azzal a helyzettel, hogy az NV kiveszi a support mögül a pénzt. -
cskamacska
addikt
Mondjuk a realitásérzékünket ne veszítsük el, a tizenéves WoW DX12-el sem lesz szebb, mint a DX9-el szenvedő Planetside 2.
És ha már blaszfémia, a PhysiX effektek igen hiányoznak belőle. Warframe-ben legalább lecserélték őket randább saját nemmocskosNV effektekre, Planetside 2-ből egyszerűen kivágták, oszt annyi.
-
Baryka007
addikt
Minimum I5 760 vagy FX 8100
Minimum HD 7850 vagy GTX 560valamint
Ajánlott I7 4770 vagy FX 8310
Ajánlott R9 280 vagy GTX 960ahol a procit erős túlzásnak vélem, egy ilyen játékhoz... Mégis kell neki, a 3770 esemen épphogy döcög 60 fps el ha dalaranba ülök, sőt ha tele vagyok rakva addonokkal nincs meg a 40 se...
-
Shing
őstag
A legtöbb MMO-nak már ezt kellene használnia. A Planetside 2 még mindig DX9-en szenved...
Egyébként most mi a minimum igény WoW-nál? Vagy 4-5 éve még tuti ment Geforce 4 MX-es kártyával, tehát shaderek nélkül, lényegében DX7 módban... Poén lenne ha még mindig elindulna, de kevés esélyt látok rá. -
Baryka007
addikt
válasz
Eugene Roe #23 üzenetére
No igen... valahogy Wotlk- cataclysm-ben jobban volt ez a balance optimalizálva... Manapság akkora balance van, ha nem lenne heal redu akkor reggelig se lehetne megölni az enemyt
-
Cythyel
senior tag
-
Ragnar_
addikt
(Én meg azt hittem ez ingame kép, és új enginet kapott a WoW. De ugye ha 2005-től eddig kihúzta, 2030-ig még biztos jó lesz ez az engine.
)
-
Puma K
nagyúr
-
hemaka
nagyúr
Tojok ra, vanilla?
-
Baryka007
addikt
Akkor Crowfallozz inkább... Én nem tudnám a wowot freetargetként elképzelni... 2008 óta wowozok 15 óta folyamatosan eredetin... És kb csak a PvP miatt játszok már, haverokkal arénázunk 2100-2400 között... Ha freetarget lenne a wow, megszűnne a focus targetolás meg minden ilyen opció, amitől valaki "skillesnek" számított... Abban a pillanatban SHIFT+DEL -t kapna a WoW tőlem, amint Freetargetre váltanák...
-
Abu85
HÁZIGAZDA
Ne várj sokat tőle. Annyira komplex a probléma, ami ezt okozza, hogy nem lehet belátható időn belül javítani. Az se biztos, hogy megéri átdolgozni a motort, mert a többszálú optimalizálással úgyis gyorsabb lesz a DX12 mód a DX11-nél.
A Microsoftnak egyébként lehet, hogy el kellene gondolkodnia azon, hogy más ajánlásokat tegyen a fejlesztőknek, mert az NV implementációja borzalmasan kényes bizonyos dolgokra, amiket ők ajánlanak, míg az Intel és az AMD implementációjának igazából jó az is, amit az NV ajánl. Kevésbé kényesek a meghajtóik, szóval néhol talán érdemes az NV leírásait követni. A parancslistáknál mindenképpen.
A root signatures és a pufferek helyzeténél nem egyértelmű a helyzet. Azért annak vannak komoly hátrányai is, hogy a buffer view-ek direkten a root signatures-be mennek. Mindenki érti, hogy a GeForce pixel shader teljesítménye romlik, ha a Microsoft "maradt távol a buffer view-ekkel a root signatures-től" ajánlását követi, de sokszor muszáj eleve távol maradni. -
Arnold2
őstag
Jaja, a WoW topicban is erről számoltak be a tagok akik bétáztak és NVidia kártyájuk van.
Véleményem szerint azért nem hajtja őket per pillanat annyira a tatár.Szerintem most arra összpontosítanak, hogy az augusztus 14-én megjelenő új kiegészítő rendesen el tudjon startolni, s majd ha az normálisan megy, akkor térnek vissza erre.
-
Cythyel
senior tag
kipróbáltam, meg előtte toltam másik tabtarget-es mmo-kat is, freetarget viszont fényévekkel jobb, elég csak Tera-t és PSO2-t megnézni, az hogy kijelölöd az ellenfelet (tabtarget) semmi szabadságot nem ad arra hogy hova teszed le a spelljeid, hova lövöd el a nyilat, merre forogsz a karaktereddel, stb... 10+ év mmorpg van mögöttem...
-
Abu85
HÁZIGAZDA
Ezért írták előre a Blizzardék, hogy NV-n maradt a DX11 default. A DX12-t alapértelmezetten Intel és AMD GPU-n engedélyezték csak. NV-n opcionálisan lehet átváltani, de nem ajánlják. Látható, hogy miért.
Állítólag eléggé komplex probléma van az NV-nél a háttérben, így egyhamar nem tudják javítani. Ahhoz, hogy NV-n is gyorsuljon szinte teljesen át kell írni a leképezőnek a parancskezelését, ami ugye azért gáz, mert most írták teljesen újra. Valószínűleg, amikor elkezdik a többszálú optimalizálást ezekre az alapokra építve, akkor a gond megoldja saját magát, így az NV is gyorsabb lesz a DX11-nél. Viszont az is eléggé esélyes, hogy a parancskezelésre vonatkozó problémát innentől hordozni fogja még évekig, túl körülményes lenne ennek javításába komolyabb humánerőforrást rakni. Egyszerűbb lenne, ha az NV implementációja igazodna jobban a Microsoft ajánlásaihoz.
-
Cythyel
senior tag
DX12 üdvözölendő, de akkor meg miért nem már Vulkan?
de sajna ez még mindig nem elég ahhoz hogy rávegyenek hogy WoW-ozzak... ahhoz a harcrendszert kéne tabtarget-ről átállítaniuk freetarget-re -
Z_A_P
addikt
Jo lenne par teszt AMD/Intel cuccal ! Dx11 vs Dx12.
DE! Nem ryzen 2700x procikkal, meg Vega64, hanem valami szolidabb gepen, pl Ryzen APU, esetleg intel IGP, vagy valami 560/570/580 karival + R3/Pentium/I3-al.
Új hozzászólás Aktív témák
Hirdetés
Állásajánlatok
Cég: Promenade Publishing House Kft.
Város: Budapest
Cég: PCMENTOR SZERVIZ KFT.
Város: Budapest